AI 安全

概念 ai 安全 伦理 来源数 1 Sat Apr 11 2026 08:00:00 GMT+0800 (China Standard Time)

AI 安全

指在大模型和 AI Agent 广泛具备自主行动能力后,围绕可控性、对齐性和滥用风险所形成的安全议题。

核心矛盾

  1. 上下文压缩导致指令遗忘:这不是 bug,而是大语言模型的底层机制。
  2. 能力与可控性的鸿沟:AI 基于概率执行,可能"创造性地理解"指令。
  3. 自主性与服从性的张力:社会要求 AI 越来越自主,却又期待它绝对服从。

关键警示

马斯克:人们可能把自己整个人生的 root 权限交给 OpenClaw。

水水的认知

人类驯服了火,但时不时仍会被火烧。OpenClaw 很强大,但需要谨慎使用。/stop 命令很重要,不要把 root 权限完全交给 AI Agent。

来源